Google je upravo zaustavio pokušaj kloniranja Geminija

Google je sprečio sofisticiran pokušaj “kloniranja” svog AI-modela Gemini, nakon što su nepoznati akteri poslali više od 100.000 pažljivo osmišljenih promptova sa ciljem da izvuku način na koji model razmišlja i odgovara. Iako nije došlo do proboja sistema, slučaj otvara važno pitanje bezbednosti generativne veštačke inteligencije.

Vreme Čitanja: < 1 min

klon-5357-fi

Izvor: Unsplash

Prema dostupnim informacijama, napad nije ličio na klasično hakovanje. Umesto pokušaja neovlašćenog pristupa infrastrukturi, napadači su se oslonili na tehniku poznatu kao model extraction. Ideja je jednostavna, ali zahtevna: kroz ogroman broj upita analiziraju se odgovori modela, kako bi se vremenom rekonstruisali obrasci njegovog ponašanja. Takvi podaci potom mogu da posluže za treniranje sopstvenog, jeftinijeg modela koji imitira original.

U ovom slučaju, cilj je bio Gemini – napredni generativni model kompanije Google. Googleovi bezbednosni sistemi su, kako je saopšteno, uočili neuobičajeno intenzivan i strukturiran obrazac upita, koji se jasno razlikovao od normalne upotrebe. Nalozi povezani sa aktivnošću su brzo ograničeni ili ugašeni, a dodatne zaštitne mere su uvedene kako bi se smanjila mogućnost izvlačenja osetljivih obrazaca kroz same odgovore modela.

Važno je naglasiti da nije došlo do krađe izvornog koda, podataka za treniranje niti do kompromitovanja infrastrukture. Ipak, sam pokušaj pokazuje koliko se pretnje u AI svetu menjaju. Umesto napada “spolja”, sve češće se testiraju granice onoga što model može da otkrije kroz legalnu, ali zloupotrebljenu interakciju.

Stručnjaci upozoravaju da ovakvi pokušaji mogu postati učestaliji kako generativni modeli postaju vredniji i komercijalno značajniji. Veliki jezički modeli danas predstavljaju ogromnu investiciju – ne samo finansijsku, već i u znanju, optimizaciji i iskustvu. Mogućnost da se deo tog znanja “destiliše” kroz pametno postavljena pitanja čini ih atraktivnom metom za konkurenciju, ali i za aktere iz sive zone, piše CNBCNews.

Slučaj sa Geminijem jasno pokazuje da bezbednost veštačke inteligencije više nije samo pitanje zaštite servera i podataka. Ona podrazumeva stalno praćenje načina na koji se modeli koriste, prepoznavanje sumnjivih obrazaca i balansiranje između otvorenosti sistema i zaštite intelektualne svojine. Kako AI postaje sve prisutniji u poslovanju i svakodnevnom životu, ovakvi incidenti verovatno će postati novo normalno u digitalnoj bezbednosnoj trci.

Prijavi se na WebMind NJUZLETER, čeka te izbor konkretnih priča i uvida.

Prijavi se na novosti.